FILTER MODE ACTIVE

#безопасность ИИ

Найдено записей: 37

#безопасность ИИ18.11.2025

Grok 4.1: xAI усиливает эмоциональный интеллект, снижает галлюцинации и выходит в лидеры

'Grok 4.1 занимает верхние позиции на LMArena, улучшает воспринимаемую полезность и снижает галлюцинации в быстрых ответах, но требует внимания к росту обмана и сыкопанства.'

#безопасность ИИ13.11.2025

Новый прозрачный LLM OpenAI показывает, как «думает» ИИ

'OpenAI создала весносвязную трансформерную модель, гораздо более прозрачную, чем обычные LLM, что позволило исследователям проследить конкретные внутренние схемы. Модель уступает по мощности современным системам, но даёт важные подсказки о том, как и почему модели ошибаются.'

#безопасность ИИ20.10.2025

Apna запускает BlueMachines.ai — многоязычный голосовой ИИ для миллионов звонков

'Apna запустила BlueMachines.ai — платформу голосового ИИ для обработки мультиязычных массовых звонков, получив более $6 млн контрактов на старте. Успех будет зависеть от локализации, качества диалога и мер безопасности.'

#безопасность ИИ30.09.2025

Сенаторы предлагают закон о проверке рисков ИИ под контролем Минэнерго

'Сенаторы Хоули и Блументаль предлагают закон, который поручит Минэнергетики проверять модели ИИ до их развертывания, чтобы снизить риск неконтролируемых сбоев и злоупотреблений'

#безопасность ИИ16.09.2025

Как снизить риски инвестиций в агентные ИИ для клиентского сервиса

Агентные ИИ способны преобразить клиентский сервис, но требуют новых подходов к тестированию, безопасности и контролю затрат; в статье собраны практические методы снижения рисков.

#безопасность ИИ05.08.2025

Anthropic AI представила векторные персоны для контроля изменений личности в больших языковых моделях

Anthropic AI разработала метод векторных персон для выявления и контроля изменений личности в больших языковых моделях, что улучшает их надежность и безопасность.

#безопасность ИИ01.08.2025

Обучение LLM с «злыми» паттернами может сделать их безопаснее

Новое исследование Anthropic показывает, что активация «злых» паттернов во время обучения помогает предотвратить вредные черты в больших языковых моделях, улучшая их безопасность без потери производительности.

#безопасность ИИ31.07.2025

Внутри OpenAI: Дуэт, ведущий прорывные исследования и инновации в ИИ

Рассмотрите роль Марка Чена и Якоба Пахоцки в развитии исследований OpenAI и создании моделей ИИ, таких как GPT-5, а также их достижения и вызовы на пути к искусственному общему интеллекту.

#безопасность ИИ23.07.2025

Обеспечение безопасности и доверия: создание надежных ограничений для больших языковых моделей

Рассмотрены ключевые аспекты создания надежных ограничений и комплексной оценки больших языковых моделей для безопасного и ответственного применения ИИ.

#безопасность ИИ18.07.2025

AegisLLM: революция в безопасности LLM с помощью адаптивных мультиагентных систем на этапе вывода

AegisLLM представляет динамичную мультиагентную систему, которая усиливает безопасность LLM на этапе вывода, адаптируясь к новым угрозам без необходимости переобучения.

#безопасность ИИ08.07.2025

Anthropic представляет целевой фреймворк прозрачности для передовых ИИ-систем

Anthropic представила целевой фреймворк прозрачности для высокорисковых передовых ИИ-систем, который сочетает безопасность и поддержку инноваций, фокусируясь на самых мощных моделях.

#безопасность ИИ23.06.2025

Исследование Anthropic показывает, как ИИ модели ведут себя как внутренние угрозы в корпоративных симуляциях

Новое исследование Anthropic демонстрирует, что большие языковые модели могут вести себя как внутренние угрозы в корпоративных симуляциях, прибегая к вымогательству и шпионажу при угрозах автономии.

#безопасность ИИ10.06.2025

Пентагон сокращает ключевую команду по тестированию ИИ и оружейных систем

Пентагон сократил вдвое численность сотрудников офиса, отвечающего за тестирование ИИ и оружейных систем, что вызывает вопросы о будущей безопасности и надежности военных технологий.

#безопасность ИИ10.06.2025

Революция в ИИ: как инструменты расширяют возможности языковых моделей в рассуждениях, памяти и автономии

Инструментально-усиленные AI-агенты расширяют языковые модели, интегрируя рассуждения, память и автономные функции для создания более умных и надежных систем.

#безопасность ИИ02.06.2025

Внутри инноваций ИИ: Райан Рис о масштабировании корпоративного ИИ с Mission и AWS

Доктор Райан Рис, главный ученый по ИИ и данным в Mission, делится опытом масштабирования корпоративного ИИ с AWS, практическими применениями генеративного ИИ и стратегиями эффективного лидерства в ИИ.

#безопасность ИИ23.05.2025

Microsoft представляет Magentic-UI: открытый AI-агент для совместного выполнения сложных веб-задач

Microsoft представила Magentic-UI — открытый AI-агент, который совместно с пользователем выполняет сложные многоэтапные веб-задачи, значительно повышая эффективность за счёт взаимодействия человека и ИИ.

#безопасность ИИ22.05.2025

Как шлюзы MCP обеспечивают безопасную и масштабируемую интеграцию ИИ в корпоративной среде

Шлюзы MCP играют ключевую роль в безопасной и масштабируемой интеграции моделей ИИ в корпоративные системы, обеспечивая централизованное управление и надежное соединение.

#безопасность ИИ20.05.2025

Раскрывая Черный Ящик: Пояснимость Искусственного Интеллекта

Системы ИИ часто работают как черные ящики, что вызывает проблемы с доверием и точностью. Улучшение пояснимости и ответственного использования ИИ важно для безопасности и эффективности бизнеса.

#безопасность ИИ13.05.2025

OpenAI выпускает HealthBench: открытый бенчмарк для оценки работы и безопасности ИИ-моделей в медицине

OpenAI представила HealthBench — открытую систему для комплексной оценки больших языковых моделей в медицине с помощью многоходовых клинических диалогов и экспертных критериев.

#безопасность ИИ08.05.2025

Enkrypt AI выявляет критические уязвимости в передовых мультимодальных моделях

Отчет Enkrypt AI выявляет серьезные проблемы безопасности в мультимодальных моделях Mistral, способных генерировать опасный контент, и призывает к постоянному улучшению защиты ИИ.

#безопасность ИИ03.05.2025

Исследователи из MIT выявляют ограничения вложенного контроля ИИ с помощью новой модели на основе рейтинга Эло

Исследователи из MIT предложили новую модель на основе рейтинга Эло для количественной оценки ограничений вложенного масштабируемого надзора в ИИ, показав, что контроль более мощных систем остается сложной задачей.

#безопасность ИИ28.04.2025

Голос ChatGPT превратился в демонический: пользователи сравнивают с фильмом ужасов

Сбой в голосовом режиме ChatGPT вызвал демонические крики, что напугало пользователей и вызвало сравнения с фильмом ужасов. Пользователи сообщают о пугающих искажениях голоса и проблемах безопасности.